home *** CD-ROM | disk | FTP | other *** search
/ hornet.scene.org / hornet.scene.org FTP 11-25-2012.zip / hornet.scene.org FTP 11-25-2012 / music / contests / mc4 / files / mc4-news.001 < prev    next >
Text File  |  2012-06-16  |  19KB  |  407 lines

  1. .Start.of.MC4.Updates.001......................................................
  2.                       _______  _________   .______   ____
  3.                       \      \ \_   ___ \  |  \   \ /   /
  4.                       /  \ /  \/    \  \/  |   \   |   /
  5.                      /    |    \     \____ |   |\     /
  6.                      \____|____/\________/ |___| \___/
  7.  
  8.     Music Contest IV Updates issue #1 - 15 Jun 1996   |   Entrants :   0
  9.                                                       |     Change :  +0
  10.      Music Contest is a competition for the scene.    |
  11.    It is hosted by Hornet at the site ftp.cdrom.com.  |   Voters   :  26
  12.      Our demo archive is located under /pub/demos.    |     Change : +26
  13.                                                       |
  14. ==[Contents]===================================================================
  15.  
  16.            Schedule
  17.            Contest Rules
  18.            Articles
  19.              Introduction................................GD
  20.              Judging Tips................................Kal Zakath
  21.              Rating Scale................................Kal Zakath
  22.            Subscribing
  23.            Closing
  24.  
  25.  
  26. ==[Schedule]===================================================================
  27.  
  28.  Date       Event
  29.  ---------  ------------------------------------------------------------------
  30.  15 Jun 96  MC4 Updates Newsletter #1
  31.  01 Jul 96  MC4 Updates Newsletter #2
  32.  10 Jul 96  MC4 Updates Newsletter #3
  33.             | Due date for entry registration
  34.  15 Jul 96  Due date for entries
  35.             | Due date for voter registration
  36.  20 Jul 96  1st round voting begins
  37.  01 Aug 96  MC4 Updates Newsletter #4
  38.  05 Aug 96  1st round voting ends
  39.  10 Aug 96  2nd round voting begins
  40.  15 Aug 96  MC4 Updates Newsletter #5
  41.  20 Aug 96  2nd round voting ends
  42.  01 Sep 96  Contest ends, results released,
  43.             | MC4 Updates Newsletter #6 (final)
  44.  
  45.  
  46. ==[Contest Rules]==============================================================
  47.  
  48.  _____The Rules
  49.  
  50.  1. Song must play in Cubic Player v1.6+, or Impulse Tracker v2.02+ for .IT
  51.     and contain no more than 32 channels.
  52.  2. No remixes or remakes of other songs (even your own)
  53.  3. The only text allowed in the song file is your verified song title
  54.  4. Uncompressed entry size must not exceed 1,000,000 bytes
  55.  5. The song and zip-compressed file format must follow the specifications
  56.     provided in your entry verification.
  57.  6. Entry must be in ftp.cdrom.com/incoming/MC4 before 00:00 GMT, 15 Jul 1996
  58.  7. A single version of one song may be entered
  59.  8. Entry may not be publicly released until final results are posted
  60.  
  61.  _____Reasons for Disqualification
  62.  
  63.  1. The entry or author violates any of the rules above
  64.  2. The author's name or handle appears anywhere in the song file
  65.  3. An entrant votes on his/her own song
  66.  4. The song is ripped
  67.  
  68.  If you are disqualified you can not re-enter.
  69.  
  70.  The organizers of MC4 reserve the right to disqualify a song due to
  71.  unforeseen circumstances.
  72.  
  73.  Changes to rules or deadlines of the contest (posted in the MC4 newsletter)
  74.  become the responsibility of all participants.  Failure to observe such
  75.  changes is not the burden of the MC4 organizers.
  76.  
  77.  
  78. ==[Articles]===================================================================
  79.  
  80. =--------------------------------------------------------(Introduction)--(GD)-=
  81.  
  82.  Hello and welcome to the first MC4 Updates Newsletter!  This newsletter will
  83.  be your guide to the current happenings related to Music Contest 4.
  84.  
  85.  We are going to release this newsletter approximately every two weeks.  Check
  86.  the calendar for the scheduled release dates.  The release dates have been
  87.  planned such that they coincide with key events in the schedule.  Keep your
  88.  eyes here so that we can inform you of any updates.
  89.  
  90.  I'd like to thank Kal Zakath for his hard work which provided us with two
  91.  very nice articles: "Judging Tips" and "Rating Scale".  These articles
  92.  contain important information that every Music Contest judge should read.
  93.  
  94.  A few months before the contest was opened, the voices started speaking out
  95.  through email and on IRC.  "When is MC4?"... "Should I enter rookie or
  96.  veteran?"... "What are the prizes?"... "How do I enter?"
  97.  
  98.  At last the time has come, so don't delay!  Fill out the correct registration
  99.  forms and participate.  :)
  100.  
  101.  GD / Hornet - gd@ftp.cdrom.com
  102.  
  103.  
  104. =------------------------------------------------(Judging Tips)--(Kal Zakath)-=
  105.  
  106.  _____Introduction
  107.  
  108.  This article will outline the specifics of the MC4 judging system.  It is
  109.  important that both judges and entrants understand this process.  Entrants
  110.  need to know what factors the judges will be examining, and on what basis.
  111.  
  112.  To have a successful judging process, all judges' ratings must be both
  113.  accurate and consistent.  To be clear on the importance of accuracy and
  114.  consistency in the judging process, please read this article carefully.
  115.  
  116.  _____Accuracy
  117.  
  118.  Judges will rate each song based on specific criteria.  They must understand
  119.  what each sub-category means and what their ratings for each category should
  120.  reflect.
  121.  
  122.  _____Consistency
  123.  
  124.  All judges' ratings are compatible with each other.  They all understand what
  125.  level of quality deserves what rating.  Judges do not rate songs compared to
  126.  each other, but on a holistic evaluation of the quality level of the tune.
  127.  Therefore, any given rating is consistent for all songs.
  128.  
  129.  _____Accuracy in Ratings
  130.  
  131.  To help you rate accurately, I have written a paragraph or two on each
  132.  judging category: what exactly it means, and how it should be rated.  All
  133.  judges should read this to ensure that all songs are judged the same way.
  134.  Consider these two hypothetical cases:
  135.  
  136.  - Judge 1 thinks "technical" means how well the composer uses effects, while
  137.    Judge 2 thinks it refers to his use of music theory.
  138.  
  139.  - Judge 1 thinks that all songs with ripped samples should be severely
  140.    penalized in that category, while Judge 2 doesn't care about the origin
  141.    of the samples so long as they sound high-quality.
  142.  
  143.  I am sure you will agree that although those two judges perhaps reviewed some
  144.  of the same songs, their ratings would not mean the same thing at all!
  145.  Therefore, all judges should make sure they are 100% clear on what each
  146.  sub-category means and how it should be rated.
  147.  
  148.  _____Originality
  149.  
  150.  When a song is rated in this category, one should keep in mind two types of
  151.  originality.  First, how unique is the style of music?  Is it a genre which
  152.  has been tracked to death many times before, or is it something relatively
  153.  different which not many composers have attempted in a tracker?
  154.  
  155.  Second, and perhaps the more important aspect of originality, how unique is
  156.  this song within its particular genre?  For example, if you hear a demo-music
  157.  style song, does it sound fresh?  Or is it merely cliche, like a failed
  158.  attempt to imitate the style of other respected musicians?
  159.  
  160.  Do not take off too many points for similarity to other musicians' styles, so
  161.  long as the tune is not an obvious rip of another's style.
  162.  
  163.  _____Form
  164.  
  165.  This category represents how well the composer has managed to create and
  166.  structure a musical piece.  When you rate this category, try to judge how
  167.  well the song "flows".  Does the song have variety or is it repetitive and
  168.  boring?  Are the transitions between parts smooth or are they abrupt?
  169.  
  170.  Form differs from technical.  "Form" focuses more on the actual musical
  171.  composition, whereas "technical" concentrates on the actual tracking.
  172.  
  173.  _____Technical
  174.  
  175.  "Technical" is a very important category.  It should reflect how well a
  176.  composer has succeeded in bringing his musical ideas into the tracked format.
  177.  How professional does the song sound?  Are effects used well?  Do leads sound
  178.  smooth or are instruments cutting each other off?  Are samples used properly?
  179.  Are instruments tuned?  Are the volumes of the different components of the
  180.  song mixed well?  Is the stereo panning well balanced?
  181.  
  182.  All of this should be considered when rating a song's technical quality.
  183.  Note that this differs from "form", as mentioned before.  As a basic rule to
  184.  differentiate between the two: "form" judges the actual composition, and
  185.  "technical" judges how it has been tracked.
  186.  
  187.  A note about extended samples (e.g. drum loops, guitar riffs).  A composer
  188.  should not be penalized (in either "technical" or "samples" categories) for
  189.  use of extended samples, as long as one condition is satisfied: the extended
  190.  samples should be used well and should only be used to produce certain sounds
  191.  which require considerable skill to accomplish in a tracker.
  192.  
  193.  When judging a song with loops, ask yourself "how easy would it have been for
  194.  the composer to have tracked this, rather than using an extended sample?"  If
  195.  it seems like the composer was just taking the easy way out (using a loop
  196.  unnecessarily), a penalty should be made in the "technical" category.  Loops
  197.  are also addressed in the "samples" category, so be sure to read that
  198.  section carefully.
  199.  
  200.  _____Samples
  201.  
  202.  This category is probably fairly self-explanatory, but keep in mind a few
  203.  guidelines you may not have thought of.  The "samples" category should not be
  204.  scored merely on the quality of the individual samples.  Above all, one
  205.  should judge the whole sample set; how well do all the instruments work
  206.  together?
  207.  
  208.  A song which has many high-quality samples that seem to clash with each other
  209.  should not receive a high "samples" rating.  Rate the composer on their
  210.  choice of instruments, the mix of samples, and their appropriateness to the
  211.  song.
  212.  
  213.  Extended samples should also be taken into consideration for this category.
  214.  A composer should not rely too heavily on loops and extended samples.  Be
  215.  sure to take off points in "samples" if a tune is overdependent on loops.
  216.  
  217.  However, if you feel that a song uses looped samples where they are not
  218.  necessary, that is addressed in the "technical" category.
  219.  
  220.  _____Overall Quality
  221.  
  222.  In Music Contest 3, the fifth and final rating category was "personal" (the
  223.  judge's subjective opinion of the tune).  In Music Contest 4, that category
  224.  has been replaced by "overall quality", which encompasses slightly more.
  225.  
  226.  When judging this category, be sure not to just average your other ratings.
  227.  Instead, simply listen to the whole song and come up with the rating which
  228.  you feel best represents the entire work.  This category is weighted triple,
  229.  so be sure that your overall quality rating is as accurate as possible.
  230.  
  231.  Remember that in round 1, the only rating is "overall quality", so the
  232.  accuracy of that category is of greatest importance.  Judges will be
  233.  responsible for selecting 40 songs out of hundreds (25 songs to qualify for
  234.  round 2 in the veteran category, and 15 songs to qualify in the rookie
  235.  category), so read the article "Rating Scale" and see how to assure
  236.  consistency in ratings.
  237.  
  238.  _____Conclusion
  239.  
  240.  Hopefully you now have a complete understanding of each of the categories and
  241.  how to judge them.  Thank you for reading this, and I hope it helps you to be
  242.  a more accurate judge. ;>  Read on for information on the MC4 rating scale.
  243.  
  244.  Kal Zakath / Night55, Carcass PC, Inferno Productions - yankee@global1.net
  245.  
  246.  
  247. =------------------------------------------------(Rating Scale)--(Kal Zakath)-=
  248.  
  249.  _____Introduction
  250.  
  251.  Even if all judges' ratings are accurate, the voting process will be flawed
  252.  if they are not also consistent with other judges' votes.  Some judges might
  253.  be rating the tunes compared to each other, while others are rating them
  254.  compared to all of the tunes they've ever heard.
  255.  
  256.  One judge's "7" might represent the best of a pathetic bunch of songs.
  257.  Another might be giving "7" to one of the better tunes in an elite group.
  258.  Even if they're perfectly clear on how to rate their tunes, inaccuracy works
  259.  its way in, as they are rating on entirely different scales.  The only way to
  260.  solve this problem is to have all judges rate on a holistic scale of quality.
  261.  
  262.  For example, "7" would be equivalent to a DemoNews rating of "***+".  It
  263.  means "very good; better than average, but still not top quality."  This way,
  264.  we can ensure that judges' ratings are compatible with each other.  A certain
  265.  score will always represent a certain quality level.
  266.  
  267.  _____The Rating Scale
  268.  
  269.  To ensure that ratings are consistent, I wrote a rating chart.  This is the
  270.  scale that I keep in mind when rating tunes, and hopefully you'll find it
  271.  easy to understand and work with. ;>  I've included comparisons to DemoNews
  272.  ratings to minimize confusion.
  273.  
  274.  _____Rating: 9.6 - 10.0 (*****)
  275.  
  276.  This rating should represent only the most perfect songs.  There should be
  277.  almost literally _nothing_ wrong with them, and have a professional quality
  278.  sound almost unattainable in tracked music.  All aspects of this sort of tune
  279.  (composition, samples, form, tracking) should be as close to perfect as
  280.  you've ever witnessed.
  281.  
  282.  Don't give a rating like this away lightly.  This should occur not more than
  283.  once out of 1000 or so tunes.
  284.  
  285.  MC3 Veteran tunes which fell within this range: (none)
  286.  
  287.  _____Rating: 8.6 - 9.5 (****+)
  288.  
  289.  This rating should represent a song of a notably professional sound.  There
  290.  should be no glaring faults in this sort of tune.  There is one key question
  291.  to be asked if one is going to give a score within this range: after hearing
  292.  this tune many times, would you now count it among your tracked-music
  293.  favorites?  If so, this is probably the sort of rating it deserves.
  294.  
  295.  MC3 Veteran tunes which fell within this range:
  296.  - Kingdom Skies (Jase), The Crossing (Necros), Drift (Nemesis).
  297.  
  298.  _____Rating: 7.6 - 8.5 (****)
  299.  
  300.  This range of scores should represent tunes you feel are of a substantially
  301.  high quality.  While maybe not among your absolute favorite tunes, these
  302.  tunes should clearly show that the composer is very skilled.  This is the
  303.  cutoff point between the "excellent" tunes and the "good" ones.
  304.  
  305.  If you feel that the song is clearly well tracked and composed, and the
  306.  overall effort impresses you, this is the rating it should receive.
  307.  
  308.  MC3 Veteran tunes which fell within this range:
  309.  - Wanderlust (Leviathan), Second Thoughts (Big Jim), Can't Fake Michelle
  310.    (Shikando), Babewatch (Ryan Cramer), Fate (Bar), Forgotten Dreamtime
  311.    (FireLight), Phoebe (Esper Division), Betrayal of Innocence (Future
  312.    Assassin)
  313.  
  314.  _____Rating: 6.6 - 7.5 (***+)
  315.  
  316.  A tune in this range should represent something you consider quite good, but
  317.  not without its flaws.  Perhaps the composer still needs to work on putting
  318.  together better sample sets or improving usage of effects.  Overall, this
  319.  song shows some degree of skill.  It is a nice tune to listen to.  While it
  320.  doesn't rank up there with the scene elite, it is certainly significantly
  321.  better than the majority of tunes out there.
  322.  
  323.  _____Rating: 5.6 - 6.5 (***)
  324.  
  325.  This should represent an overall "good" quality level.  Nothing spectacular,
  326.  but a solid tune.  It has at least some enjoyable parts, and shows a bit of
  327.  tracking skill on the part of the composer.  This should represent a tune
  328.  which is nice to listen to once or twice, but it's not really something
  329.  you're going to come back to after you're done judging.
  330.  
  331.  _____Rating: 4.6 - 5.5 (**+)
  332.  
  333.  One word, _mediocrity_.  This represents the middle of the quality spectrum.
  334.  Maybe there are some decent parts, maybe there are some bad parts.  They all
  335.  balance out to form a song which is just plain average.  You'll listen to it,
  336.  rate it, and forget it a few hours after.
  337.  
  338.  _____Rating: 3.6 - 4.5 (**)
  339.  
  340.  A bit lower than average quality.  At this point, you start to find quite a
  341.  few problems with the tune.  The tune is fair, overall, but with some notably
  342.  bad parts which drag it down.  A tune of this quality is one you'd really
  343.  rather not listen to more than once.
  344.  
  345.  _____Rating: 2.6 - 3.5 (*+)
  346.  
  347.  Now we get to where you start asking yourself, "what is actually any good
  348.  about this tune!?"  Samples, form, tracking: all point to _bad quality_.
  349.  Once in a while the composer seems to stumble onto a decent sound, but loses
  350.  it seconds after.  A tune like this will make you think, "is this composer
  351.  entering his first tune ever into the veteran compo?"
  352.  
  353.  _____Rating: 1.6 - 2.5 (*)
  354.  
  355.  This song is horrible, and has really no redeeming qualities.  Even the best
  356.  parts of this tune don't manage to sound mediocre.  Everything needs work,
  357.  doesn't show any true potential at all.  It makes you think that the composer
  358.  must have no sense of quality to even release this.  You'll feel like turning
  359.  it off after barely a few seconds.
  360.  
  361.  _____Rating: 0.0 - 1.5 (+)
  362.  
  363.  Pure torture.  Drives you insane to even listen to.  Not even music, this is
  364.  utter crap so pathetically cacophonous that it literally hurts to listen to.
  365.  Don't give out ratings like this too casually either; it should be saved for
  366.  the most absolute crap.  ;>
  367.  
  368.  _____Conclusion
  369.  
  370.  Now you should have all the info you need to be an MC4 judge.  If you have
  371.  any questions about MC4 judging or comments/criticisms on these articles,
  372.  please do not hesitate to contact me.  Thanks for reading, and good luck in
  373.  your judging and tracking!  See you around on IRC. ;>
  374.  
  375.  Kal Zakath / Night55, Carcass PC, Inferno Productions - yankee@global1.net
  376.  
  377.  
  378. ==[Subscribing]================================================================
  379.  
  380.  _____How to subscribe to MC4 Updates
  381.  
  382.  Mail to : listserver@unseen.aztec.co.za
  383.  Body    : subscribe mc4-updates [first_name] [last_name]
  384.  
  385.  The listserver will send MC4 Updates to your e-mail's return address.
  386.  
  387.  _____How to subscribe to DemoNews
  388.  
  389.  Mail to : listserver@unseen.aztec.co.za
  390.  Body    : subscribe demuan-list [first_name] [last_name]
  391.  
  392.  The listserver will send DemoNews to your e-mail's return address.
  393.  
  394.  _____Back Issues
  395.  
  396.  New releases of MC4 Updates are posted to /demos/incoming/mc4/news
  397.  
  398.  Old issues of DemoNews can be found in /demos/hornet/demonews
  399.  New releases of DemoNews are posted to /demos/incoming/news
  400.  
  401.  
  402. ==[Closing]====================================================================
  403.  
  404.  Questions related to MC4 should be directed to GD, gd@ftp.cdrom.com
  405.  
  406. ........................................................End.of.MC4.Updates.001.
  407.